我們在上次說過,在 Training 的過程的中,除了如何出一個 Powerful、Useful 以及 Effcient 的 Model,另一個很重要的 Part 就是我們對 dataset 的處理。我們在上一次說了如何使用 data argumentation 的技巧來增加我們 Training dataset,以及比較了一些常見的 data argumentation 在 CPU 上以及 GPU 上執行的效率差別,並針對這一個 Part 給了一個例子。但另一個問題是上一次的 Dataset 是小小的 MNIST,其實老實說我們所做的也不過就是增加了一點速度,但會不會其實根本沒必要呀XDDD反正那樣的資料小成這樣><這本給大家一個建議是大家可以載 ImageNet的 Dataset下來是是看就可以知道差距了XDDDD但說到 ImageNet 這樣的大型 Dataset,我們今天就要來記須說明一些大型Dataset可以使用的處理方法